12 research outputs found

    Nursing Informatics 2018

    Get PDF
    Aedes aegypti and Aedes albopictus mosquitoes are responsible for the transmission of diseases such as dengue fever, yellow fever, chikungunya fever, zika virus fever, some of which can cause irreversible central nervous system problems and death. This study investigates what technologies are being used for combatting and monitoring the Aedes mosquitoes and to propose joining these technologies into a single and complete solution using the Smart Cities concept. A search for newscasts on Google and mobile apps in app stores were performed to identify technological solutions for combat to Aedes mosquitoes. Also, a model for joint technology was proposed. Results identified the following technologies: 170 software, two sensors, two drones, one electronic device, ten mosquito traps/lures, seven biological tools, six biotechnologies, and eight chemical formulations. Technological resources and adoption of preventive measures by the population could be a useful method for the mosquito control. Examples include a georeferenced model for identification and examination of larvae, application of chemical/biological products, real-time mapping, sending of educational materials via email or social media for the population, and alerts to health professionals in the zones of combat/risk. In combination, these technologies may indicate a better solution to the current problem.</p

    Nossa experiência com a paralelizâçao de um algoritmo de processamento de imagens geográficas

    Get PDF
    O processamento de imagem digital tem sido usado em diversas áreas de pesquisa como instrumento para o reconhecimento de padres e de filtragens específicas nas imagens. Entretanto, dependendo das características da aplicação o tempo de processamento pode ser extremamente alto e dificultar o avanço das pesquisas associadas. Nesse contexto, este trabalho propõe a paralelização de um algoritmo para o processamento de imagem digital utilizado no cálculo de índice de fragmentação multidimensional. Os resultados obtidos demostram o grande benefício da paralelização, pois a paralelização é capaz de reduzir o tempo de processamento em até 80% para alguns casos.Presentado en el X Workshop Procesamiento Distribuido y Paralelo (WPDP)Red de Universidades con Carreras en Informática (RedUNCI

    Nossa experiência com a paralelizâçao de um algoritmo de processamento de imagens geográficas

    Get PDF
    O processamento de imagem digital tem sido usado em diversas áreas de pesquisa como instrumento para o reconhecimento de padres e de filtragens específicas nas imagens. Entretanto, dependendo das características da aplicação o tempo de processamento pode ser extremamente alto e dificultar o avanço das pesquisas associadas. Nesse contexto, este trabalho propõe a paralelização de um algoritmo para o processamento de imagem digital utilizado no cálculo de índice de fragmentação multidimensional. Os resultados obtidos demostram o grande benefício da paralelização, pois a paralelização é capaz de reduzir o tempo de processamento em até 80% para alguns casos.Presentado en el X Workshop Procesamiento Distribuido y Paralelo (WPDP)Red de Universidades con Carreras en Informática (RedUNCI

    Workflow scheduling with sensitive task annotations for security and cost optimization in clouds

    No full text
    A evolução dos computadores tem possibilitado a realização de experimentos in-silico, incluindo aplicações baseadas no modelo de workflow. A execução de workflows é uma atividade que pode ser computacional dispendiosa, onde grades e nuvens são adotadas para a sua execução. Inserido nesse contexto, os algoritmos de escalonamento de workflow permitem atender diferentes critérios de execução como o tempo e o custo monetário. Contudo, a segurança é um critério que tem recebido atenção, pois diversas organizações hesitam em implantar suas aplicações em nuvens devido às ameaças presentes em um ambiente aberto e promíscuo como a Internet. Os algoritmos de escalonamento direcionados à segurança consideram dois cenários: (a) nuvens híbridas: mantêm os tarefas que manipulam dados sensitivos/confidenciais na nuvem privada e exporta as demais tarefas para nuvens públicas para satisfazer alguma restrição (ex.: tempo), e; (b) nuvens públicas: considera o uso de serviços de segurança disponíveis em instâncias de máquinas virtuais para proteger tarefas que lidam com dados sensitivos/confidenciais. No entanto, os algoritmos de escalonamento que consideram o uso de serviços de segurança selecionam as tarefas de forma aleatória sem considerar a semântica dos dados. Esse tipo de abordagem pode acabar atribuindo proteção a tarefas não-sensitivas e desperdiçando tempo e recursos, e deixando dados sensitivos sem a proteção necessária. Frente a essas limitações, propõe-se nesta tese duas abordagens de escalonamento de workflow: o Workflow Scheduling - Task Selection Policies (WS-TSP) e a Sensitive Annotation for Security Tasks (SAST). O WS-TSP é uma abordagem de escalonamento que usa um conjunto de políticas para a proteção de tarefas. O SAST é outra abordagem que permite utilizar o conhecimento prévio do Desenvolvedor de Aplicação para identificar quais tarefas devem receber proteção. O WS-TSP e a SAST consideram a aplicação de serviços de segurança como autenticação, verificação de integridade e criptografia para proteger as tarefas sensitivas do workflow. A avaliação dessas abordagens foi realizada através de uma extensão do simulador WorkflowSim que incorpora a sobrecarga dos serviços de segurança no tempo, do custo e do risco de execução do workflow. As duas abordagens apresentaram menor risco de segurança do que as abordagens da literatura, sob um custo e makespan razoáveis.The evolution of computers has enabled in-silico experiments to take place, including applications based on the workflow model. The execution of workflows is an activity that can be computationally expensive, where grids and clouds are adopted for its execution. In this context, the workflow scheduling algorithms allow meeting different execution criteria such as time and monetary cost. However, security is a criterion that has received attention because several organizations hesitate to deploy their applications in clouds due to the threats present in an open and promiscuous environment like the Internet. Security-oriented scheduling algorithms consider two scenarios: (a) hybrid clouds: holds tasks that manipulate sensitive data in the private cloud and export the other tasks to public clouds to satisfy some constraints (eg, time); (b) public clouds: considers the use of security services available in instances of virtual machines to protect tasks that deal with sensitive data. However, scheduling algorithms that consider the use of security services randomly select tasks without considering data semantics. This type of approach may end up assigning protection to non-sensitive tasks and wasting time and resources and leaving sensitive data without the necessary protection. In view of these limitations, two workflow scheduling approaches are proposed: Workflow Scheduling (WS-TSP) and Sensitive Annotation for Security Tasks (SAST). WS-TSP is a scheduling approach that uses a set of policies for task protection. SAST is another approach that allows using the Application Developers prior knowledge to identify which tasks should be protected. WS-TSP and SAST consider implementing security services such as authentication, integrity verification, and encryption to protect sensitive tasks. The evaluation of these approaches was carried out through an extension of the simulatorWorkflowSim that incorporates the overhead of security services in the execution time, the cost and the risk of execution The two approaches presented a lower security risk than the literature approaches, at a reasonable cost and makespan

    Algoritmo Paralelo do Teorema de Convolução em Imagens em OpenMP para Java

    No full text
    As aplicações científicas e comerciais tem demandado poder computacional cada vez maior. Para atender essa demanda, o mercado de processadores vem criando tecnologias como processadores multicore. Porém, o uso de parte ou de todos os núcleos em uma aplicação não é trivial, pois é necessário criar múltiplos threads, cujo controle e ajustes de algoritmos nem sempre são de conhecimento dos programadores (GEER, 2005).  A linguagem Java possui suporte nativo a threads, porém necessita-se tempo e conhecimento apurado para extrair o paralelismo de códigos sequenciais. A partir dessas dificuldades e com base na biblioteca OpenMP, foi desenvolvida a biblioteca JOMP que visa explorar o paralelismo em Java com menor dificuldade (BULL et al. 2000).   O objetivo desse trabalho foi analisar o ganho de desempenho da paralelização da biblioteca JOMP em processadores multicore

    Análise do impacto de ambientes heterogêneos em algoritmo de processamento de imagens digitais

    No full text
    The parallel computing proposes new parallel models to reduce the runtime of applications. However, the execution of applications on a parallel environment may cause a significant increase on runtime. This work presents and proposes an approach called Bag of Tasks which has the intent of reducing the impact that heterogeneous environments may cause on the execution time of parallel applications

    Módulo de Gerenciamento de Memória para um Framework de Desenvolvimento de Jogos

    No full text
    Esseartigoapresentaodesenvolvimentodomódulodegerenciamento de memória para um framework de desenvolvimento de jogos eletrônicos intitu- lado Crazy Framework. O objetivo do módulo é gerenciar a memória utilizada por aplicações criadas a partir do framework, oferecendo aos desenvolvedores informações sobre os blocos alocados e estatísticas de utilização, úteis princi- palmente para evitar problemas comuns, relacionados com a utilização caótica da região da heap, entre eles: fragmentação, dangling pointers e memory leaks.

    A CloudSim extension for evaluating security overhead in workflow execution in clouds

    Full text link
    Workflow scheduling algorithms for cloud environments are extensively studied using workflow management system simulators. The common criteria covered by algorithms and addressed in simulators are makespan, monetary cost, reliability, and energy consumption. Beyond these criteria, security is also a criterion and has been investigated recently. Scientific and business workflows typically handle sensitive and big data that can influence the makespan and cost significantly when a scheduling algorithm applies security services to these data. However, simulators for workflow execution do not address the overhead produced by applying security services to sensitive data. In this paper, we propose an extension for workflow simulator to support security services. We considered seven steps for measuring security overheads on workflow execution. The extension was validated by executing a real-world workflow applying three types of security services namely authentication, integrity verification, and encryption. Our extension proved useful for simulating workflow execution applying security services on sensitive data and analyzing the effects of security on makespan, cost and security criteria

    (WIP) Tasks Selection Policies for Securing Sensitive Data on Workflow Scheduling in Clouds.

    Full text link
    Scheduling is an important topic to support data security for workflow execution in clouds. Some workflow scheduling algorithms use security services such as authentication, integrity verification, and encryption for all workflow tasks. However, applying security services to no sensitive data does not make sense as no benefit is gained, yet it increases the makespan and monetary costs. In this paper, we introduce five policies for selection of tasks that handle sensitive data. We also propose a workflow scheduling algorithm based on a multi-populational genetic algorithm for minimizing cost while meeting a deadline. Experiments using four workflow applications show that our proposal can minimize both the makespan and cost, while maintaining the security of sensitive data compared to another approach in the literature

    Selection of computational environments for PSP processing on scientific gateways.

    No full text
    Science Gateways have been widely accepted as an important tool in academic research, due to their flexibility, simple use and extension. However, such systems may yield performance traps that delay work progress and cause waste of resources or generation of poor scientific results. This paper addresses an investigation on some of the failures in a Galaxy system and analyses of their impacts. The use case is based on protein structure prediction experiments performed. A novel science gateway component is proposed towards the definition of the relation between general parameters and capacity of machines. The machine-learning strategies used appoint the best machine setup in a heterogeneous environment and the results show a complete overview of Galaxy, a diverse platform organization, and the workload behavior. A Support Vector Regression (SVR) model generated and based on a historic data-set provided an excellent learning module and proved a varied platform configuration is valuable as infrastructure in a science gateway. The results revealed the advantages of investing in local cluster infrastructures as a base for scientific experiments
    corecore